66 research outputs found
Revisiting the Hierarchical Multiscale LSTM
Hierarchical Multiscale LSTM (Chung et al., 2016a) is a state-of-the-art
language model that learns interpretable structure from character-level input.
Such models can provide fertile ground for (cognitive) computational
linguistics studies. However, the high complexity of the architecture, training
procedure and implementations might hinder its applicability. We provide a
detailed reproduction and ablation study of the architecture, shedding light on
some of the potential caveats of re-purposing complex deep-learning
architectures. We further show that simplifying certain aspects of the
architecture can in fact improve its performance. We also investigate the
linguistic units (segments) learned by various levels of the model, and argue
that their quality does not correlate with the overall performance of the model
on language modeling.Comment: To appear in COLING 2018 (reproduction track
Lessons learned in multilingual grounded language learning
Recent work has shown how to learn better visual-semantic embeddings by
leveraging image descriptions in more than one language. Here, we investigate
in detail which conditions affect the performance of this type of grounded
language learning model. We show that multilingual training improves over
bilingual training, and that low-resource languages benefit from training with
higher-resource languages. We demonstrate that a multilingual model can be
trained equally well on either translations or comparable sentence pairs, and
that annotating the same set of images in multiple language enables further
improvements via an additional caption-caption ranking objective.Comment: CoNLL 201
TextWorldExpress: Simulating Text Games at One Million Steps Per Second
Text-based games offer a challenging test bed to evaluate virtual agents at
language understanding, multi-step problem-solving, and common-sense reasoning.
However, speed is a major limitation of current text-based games, capping at
300 steps per second, mainly due to the use of legacy tooling. In this work we
present TextWorldExpress, a high-performance implementation of three common
text game benchmarks that increases simulation throughput by approximately
three orders of magnitude, reaching over one million steps per second on common
desktop hardware. This significantly reduces experiment runtime, enabling
billion-step-scale experiments in about one day.Comment: 6 page
Réseaux de neurones génératifs avec structure
Cette thèse porte sur les modèles génératifs en apprentissage automatique. Deux nouveaux modèles basés sur les réseaux de neurones y sont proposés. Le premier modèle possède une représentation interne où une certaine structure a été imposée afin d’ordonner les caractéristiques apprises. Le deuxième modèle parvient à exploiter la structure topologique des données observées, et d’en tenir compte lors de la phase générative.
Cette thèse présente également une des premières applications de l’apprentissage automatique au problème de la tractographie du cerveau. Pour ce faire, un réseau de neurones récurrent est appliqué à des données de diffusion afin d’obtenir une représentation des fibres de la matière blanche sous forme de séquences de points en trois dimensions
Segmentation des fibres de la matière blanche
Ce mémoire porte sur la segmentation des fibres de la matière blanche et sur le développement d'outils visuels permettant d'interagir avec les résultats. Pour y parvenir, une métrique innovatrice permettant de quantifier la différence entre deux fibres de la matière blanche est créée. Cette mesure fait appel à des notions de multirésolution, de courbure, de torsion afin de caractériser la forme géométrique d'une fibre. Elle regroupe également des mesures plus simples telles la distance du cosinus, la distance euclidienne entre les centres de masse et la différence des longueurs d'arc pour capter respectivement l'orientation, la translation et la taille d'une fibre. Ensuite, une nouvelle technique de segmentation permettant de gérer des quantités importantes de données est développée. Finalement, ces nouvelles méthodes sont validées sur différents jeux de données
Interactive Fiction Games: A Colossal Adventure
A hallmark of human intelligence is the ability to understand and communicate
with language. Interactive Fiction games are fully text-based simulation
environments where a player issues text commands to effect change in the
environment and progress through the story. We argue that IF games are an
excellent testbed for studying language-based autonomous agents. In particular,
IF games combine challenges of combinatorial action spaces, language
understanding, and commonsense reasoning. To facilitate rapid development of
language-based agents, we introduce Jericho, a learning environment for
man-made IF games and conduct a comprehensive study of text-agents across a
rich set of games, highlighting directions in which agents can improve
- …